home *** CD-ROM | disk | FTP | other *** search
/ Power Tools 1993 October - Disc 2 / Power Tools (Disc 2)(October 1993)(HP).iso / hotlines / mfahl / sizing / sizing.txt < prev   
Text File  |  1993-07-29  |  35KB  |  656 lines

  1.  
  2. PAPER # 7032
  3. Rightsizing Your Mainframe
  4. Performance Criteria
  5. by James A Hepler
  6. Hewlett-Packard
  7. 39550 Orchard Hill Place
  8. Novi, Michigan, 48376-8024
  9. 313-380-2207
  10.  
  11. INTRODUCTION
  12.  
  13. Rightsizing, Downsizing, or MainFrame Alternative Solutions provide a 
  14. major opportunity for cost savings while often improving service to the 
  15. user community.  This paper will discuss the predominant issues 
  16. involved with decision making when approaching a MainFrame Alternative 
  17. (MFA) situation concentrating on those issues relating to performance.  
  18. While not all of the issues listed may be directly related to 
  19. performance, there may be an indirect relationship or an impact on 
  20. Service Levels that should be considered as part of the overall 
  21. solution. 
  22.  
  23. MFA covers a broad spectrum of issues. A paper of this type cannot 
  24. begin to address all of the possible situations or obstacles that may 
  25. arise.  The intent here is to focus at a high level on areas that the 
  26. analyst will generally have to review in order to size a system, choose 
  27. a data base, pick a platform, select an application, et cetera as part 
  28. of the planned main frame alternative solution. Every one of these 
  29. areas would make excellent topics for other papers allowing more 
  30. technical detail and more case studies, but a global view is also 
  31. needed.  This paper presents that view from the top.
  32.  
  33. MAINFRAME ALTERNATIVE DRIVING FORCES
  34.  
  35. "74% of mainframe users are either investigating, currently migrating 
  36. from, or have completely migrated from mainframes."
  37.  
  38.                                     Dataquest 1991
  39.  
  40. What are those mysterious forces driving computer industry  users away  
  41. from the traditional mainframe environment?  There are many factors 
  42. named in a variety of ways, but they can all be boiled down to a small 
  43. number.  If those are examined closely, you can eventually find a cost 
  44. benefit.  The differentiator is how soon and how easy to measure is the 
  45. cost benefit?
  46.  
  47. For the sake of simplicity, let us think of cost savings as short term 
  48. savings or at least a short term return on investment.  Because of 
  49. technological advances in computer hardware and software, there is an 
  50. obvious and up front savings in operating costs when a movement from 
  51. the mainframe environment to a state of the art system and operating 
  52. environment is completed.  But does the cost of migration or conversion 
  53. to a new environment and the risk to the corporation justify the 
  54. investment?  In about 50% of the cases I have been involved with, this 
  55. initial cost saving exceeded the conversion or migration investment.
  56.  
  57. A second driving force is the strategic decision to move to a more Open 
  58. System environment to take advantage of all the opportunities offered.  
  59. This is very easy to justify with cost savings as well, but the 
  60. investment may be higher especially when a move to new Client/Server 
  61. application technology is to be accomplished at the same time.  The 
  62. return on Information Systems (IS) investment may be farther into the 
  63. future but advantages to the end users, application maintenance, and 
  64. operations could be used to accelerate the financial payoff.
  65.  
  66. This movement to Open Systems is fueled by requirements for features 
  67. like RAD (Rapid Application Development) and CASE (Computer Aided 
  68. Software Engineering) tools.  Easier access to data for end users and 
  69. decision support, reduced application maintenance, better networking 
  70. capabilities, vendor independence, desk-top integration tool sets, 
  71. better data integrity features, and many other considerations are 
  72. important facets of the Open System environment.
  73.  
  74. These types of Information Technology (IT) justifications are based on 
  75. gaining competitive advantages such as faster time getting new products 
  76. to market, better product offerings at less cost, more flexible 
  77. customer service, and so on.  If a company can access their data 
  78. faster, more intuitively, and with greater flexibility, they can make 
  79. decisions faster and provide better service to their internal and 
  80. external customers.  This will allow the company to respond more 
  81. quickly to changing business needs.
  82.  
  83. Open Systems offers more portability and enabling software so that as 
  84. technological advances and standards emerge in the future they can be 
  85. easily implemented.  The obstacles experienced moving from the 
  86. mainframe environment now will be greatly reduced when changes are 
  87. needed in the future.  If the Open System is RISC (Reduced Instruction 
  88. Set Computing) based, the scalability advantages of RISC will be a 
  89. large bonus to the user community.
  90.  
  91. Companies are also examining main frame alternatives as part of a 
  92. reduction in vendor risk and cost.  Many computer hardware and software 
  93. vendors in the mainframe world are reducing their level of support  
  94. while increasing the support costs and licensing  fees to the customer.  
  95. Many customers are more concerned about support reduction than 
  96. increasing costs but it is a problem they cannot ignore.  Third party 
  97. software licensing fees also tend to be larger on mainframes than on 
  98. Open Platforms. 
  99.  
  100. There is also concern about the future direction of the proprietary 
  101. product offerings of some vendors by many customers considering an 
  102. alternative.  POSIX compliance is being offered by some vendors as a 
  103. way of opening their proprietary operating environments but this does 
  104. not seem to be happening in the traditional mainframe world.
  105.  
  106. A new trend seen recently is that new college graduates do not want to 
  107. work in IS departments with tools they consider antiquated or with 3rd 
  108. generation languages.  They prefer to work with new Graphical User 
  109. Interfaces (GUIs) like MOTIF and Windows and 4th generation languages 
  110. and CASE tools.  A IS staff with a need for entry level programmers and 
  111. programmer-analysts will need to be concerned with this at an 
  112. escalating rate.
  113.  
  114. Perhaps even more critical is the morale problems with existing staff 
  115. members feeling they are falling behind in technical expertise because 
  116. of the age of their systems architecture and supporting tools.  There 
  117. is a growing faction of systems personnel who feel that character mode 
  118. dumb black and white terminals and even PCs with 286 or older chip sets 
  119. are anchors holding them down.  They feel these devices would be more 
  120. useful at the bottom of a lake where a boat anchor should be.  These 
  121. people may console themselves with the fact that there are still 
  122. systems out there with punch cards as their primary source of data 
  123. entry.
  124.  
  125. These issues are creating the interest in mainframe alternatives.  The 
  126. benefits can be enormous.  There are however many concerns to be 
  127. addressed when considering a move to a new and lesser known 
  128. environment.  An important criterion in studying the mainframe 
  129. alternative is to offer the same or better functionality to the users 
  130. and IS staff while maintaining the same performance service.  In many 
  131. cases, customers will accept a slight reduction in services if there 
  132. are substantial other benefits or cost savings.
  133.  
  134. For example, on their previous mainframe system, a customer was getting 
  135. an average response time of 1.7 seconds.  After porting the same 
  136. application to a less expensive open system the average response time 
  137. was measured at 1.95 seconds.  While it was measurably slower, there 
  138. was no perception of degraded performance by the users.  The system 
  139. resources were not being taxed and a performance analysis showed that 
  140. response time would remain at less than 2.0 seconds with 30% increase 
  141. in usage.  This was well within acceptable limits to this customer.
  142.  
  143. FACTORS AFFECTING PERFORMANCE
  144.  
  145. There are many factors that can have an impact on system or server 
  146. performance.  There are other factors that can have an effect on 
  147. performance in a distributed or client/server environment.  These can 
  148. be categorized in five basic categories as follows
  149.    CPU speed and utilization
  150.    Disk I/O rates and demand
  151.    Memory access rates and utilization
  152.    Network delays
  153.    Software locks and latches
  154.  
  155. The traditional factors of CPU, Disk I/O and Memory Utilization are 
  156. familiar to most people involved with system performance.  The basic 
  157. concept for these factors is that they are resources required to do 
  158. work on a computer system and that the amount required of each resource 
  159. and the time it takes to acquire and use that resource effect response 
  160. time or throughput.  There have been many presentations and papers at 
  161. Interex covering those topics.
  162.  
  163. The network delay factor includes not only the speed of the network and 
  164. queuing within the network, but also delays due to the work performed 
  165. either on the remote server or on the client system if one is involved.  
  166. Stated another way, for a transaction on system A to complete, it may 
  167. have to wait for part of the transaction to complete on system B.  For 
  168. the local server, this appears to be part of network delay because it 
  169. takes place on the network outside the local system.
  170.  
  171. Software Locks and Latches refers to other types of software delays.  
  172. These can include file locks, contention for data base buffers, 
  173. messaging delays for local cooperative processing, artificial locks 
  174. such as for local mail boxes, and other unique delays that do not have 
  175. to do with the physical resources of the system.
  176.  
  177. IMPLEMENTATION METHODS
  178.  
  179. There are five basic implementation methods to meet the business need 
  180. in a mainframe alternative situation.  They are TRANSFER, CONVERT, 
  181. REPLACE, REWRITE, and SURROUND.
  182.  
  183. TRANSFER means move the same application from the mainframe to the 
  184. alternative platform.  Many financial and other application packages 
  185. run on several platforms and can be transferred with a minimum amount 
  186. of effort. CASE tools, 4GLs, Executive Information Systems, and other 
  187. types of application software can be ported.  Examples of these are 
  188. Lawson Financials, FOCUS, and SAS.  The advantages of TRANSFER include 
  189. easier transition for program maintenance and little or no training for 
  190. end users.
  191.  
  192. REPLACEing the current application with an "off-the-shelf" package 
  193. offers many advantages.  A new package may have a better feature set 
  194. than a ten year old package or a user developed package.  A package 
  195. specifically designed and  tuned for the open environment utilizing 
  196. client/server concepts will likely offer better response and throughput 
  197. than existing systems.  End users will need to use the new package of 
  198. course.  It is likely that maintenance will be easier because of the 
  199. lack of "spaghetti" code and newer available tools.
  200.  
  201. The best example of the CONVERT strategy is to convert CICS/COBOL 
  202. applications to run in the open environment.  This could be an 
  203. emulation, a coexistence strategy or a movement to C language with a 
  204. new GUI.  There are advantages and disadvantages in this strategy from 
  205. a performance perspective.  Some cases have shown performance 
  206. improvements, others degradation.  The largest advantage is that there 
  207. are utilities and services that aid in this conversion rather than 
  208. having to do a total rewrite of the applications.
  209.  
  210. Automated conversions can be performed by third parties with tools and 
  211. methodologies developed precisely for this purpose.  With this strategy 
  212. it is also possible to change to a new data base or file structure, to 
  213. a new user interface, and even to a new language if desirable.  For 
  214. example, customers have converted from DB2 with COBOL and CICS to VPLUS 
  215. with TurboImage under MPEiX or to COBOL with CURSES and Oracle under 
  216. HP-UX.  Similar to the TRANSFER, the end users would not need 
  217. retraining and the programmers would be familiar with the source code 
  218. since it is essentially the same.  There may have to be training on the 
  219. new data base or user interface.
  220.  
  221. A REWRITE may have the advantage of allowing an improvement in the 
  222. process or conversion to client/server or adoption of a new data base 
  223. or file system.  There may be a performance edge over some of the other 
  224. possible implementation paths.  With the current Rapid Application 
  225. Development tools this may be a desirable solution for off-load 
  226. application targets in particular.  End users will have to learn the 
  227. new system but on the other hand could contribute to a better design.  
  228. Clearly there would be a relatively massive programming and design 
  229. effort involved.  The expense associated with the REWRITE option is 
  230. generally high as a result.
  231.  
  232. The SURROUND strategy is one where the mainframe can sit in the middle 
  233. of a network of open systems as a server.  The mainframe could have a 
  234. corporate data base so cumbersome that conversion is too complex.  With 
  235. the current newer Middleware tool sets it is possible to use open 
  236. systems as a client to a large mainframe data base while using the 
  237. Structured Query Language (SQL) tools available in the open 
  238. environment.  There also may be certain applications that are difficult 
  239. to migrate that require the mainframe environment.  In the purest sense 
  240. the SURROUND strategy means coexistence with the mainframe while using 
  241. the enabling tools on the open systems around it.  The main advantage 
  242. to this solution is that the investment in the data base design is 
  243. protected.  Other advantages include the use of SQL type tools and the 
  244. ability to use less expensive systems for the clients to the mainframe 
  245. server.  The mainframe would be off-loaded because the application 
  246. would be on the client systems.  This could prolong the life of the 
  247. mainframe and provide cost avoidance for mainframe upgrades.
  248.  
  249. These implementation strategies have performance advantages and 
  250. disadvantages in different situations.  Deciding whether the solution 
  251. selected is viable may depend on judgment and knowledge of the 
  252. performance situations discussed in the sections to follow.
  253.  
  254. APPLICATION SELECTION
  255.  
  256. A mainframe alternative may involve off-loading one application or 
  257. moving the entire suite of applications.  Often it is desirable to 
  258. select one application first.  The methodology for selecting this first 
  259. application varies depending on the needs of the customer. Inherent  in 
  260. any selection must be the acceptability of the resultant response or 
  261. throughput.
  262.  
  263. Some criteria for application selection are:
  264.  - Query only
  265.  - Decision Support
  266.  - 3 to 6 month development cycle
  267.  - Less than 80,000 transactions per day
  268.  - Relatively small disk files
  269.  - Packaged applications
  270.  - Mission critical application
  271.  - Feasible project
  272.  
  273. The most important thing to consider when picking an application is to 
  274. be sure the application selected would not be "just a test."  If the 
  275. organization is just "kicking the tires" there will not be enough of an 
  276. interest or commitment to see the project through to completion.  
  277. Select one that must succeed.
  278.  
  279. CPU SIZING
  280.  
  281. There is no technique for accurately sizing a replacement CPU with a 
  282. different architecture. The traditional methods use industry 
  283. benchmarks, marketing information, number of users, number of 
  284. transactions per hour, MIPS rating, I/O rates, and many other types of 
  285. metrics that can be used to estimate which CPU can best fit the needs 
  286. of the application users.  Analytic Modeling has been used to study 
  287. feasibility of migrating and providing suitable performance.
  288.  
  289. If information on CPU per transaction, disk I/O per transaction, 
  290. average think time, and number of transactions per hour is known, 
  291. analytic modeling tools can be applied for interactive applications.  
  292. For batch type modeling it is necessary to know the CPU and disk I/O 
  293. per job and number of jobs per hour.  Inaccuracy is introduced by not 
  294. knowing the relationships between the mainframe environment and the new 
  295. environment.  Differences in disk technology and file system access 
  296. technology must be considered also.  Operating system differences such 
  297. as internal buffering mechanisms can have a large impact on this type 
  298. of modeling.
  299.  
  300. It is necessary to create a ratio of main frame CPU (MFCPU) second to 
  301. alternate CPU (ALCPU) second to migrate within the model.  This is done 
  302. by using ratios of known performance benchmarks with similar 
  303. applications or other criteria to estimate the relationship.  For 
  304. example if it is known that MFCPU is rated at 50 TPC-A transactions per 
  305. second and the ALCPU is rated at 60 TPC-A transactions per second, it 
  306. is logical to use that ratio for on-line type transactions.  It is 
  307. logical but it may not be accurate.
  308.  
  309. In this type of scenario, analytic modeling is often used as a sanity 
  310. check after other CPU sizing efforts using more traditional methods 
  311. such as comparing similar installed applications at known sites are 
  312. completed.  Other methods are to examine how many users are most 
  313. customer systems supporting doing similar transactions.  It is 
  314. impossible for any of these methods to be correct 100% of the time.  
  315. Most analysts responsible for sizing systems in main frame alternative 
  316. scenarios do it based on a combination of these methods and mixing in a 
  317. great deal of experience to finally come up with "the answer." 
  318. Generally a conservative approach is used and if there is any doubt 
  319. about which CPU is most likely to succeed, the  faster CPU will be 
  320. selected.
  321.  
  322. It is too simplistic to look at a competitive information chart from 
  323. one vendor or from an independent third party and say that since the 
  324. ALCPU is the same speed as the MFCPU it can be a replacement with the 
  325. same performance.  For a first estimate this might be acceptable, but 
  326. more study is needed.  Fortunately it is common for MFCPU systems to 
  327. have performance reports generated. Unfortunately they are not always 
  328. accurate.
  329.  
  330. Another consideration is that if only one application is moving from 
  331. the main frame, it will be necessary to size based on the part of the 
  332. main frame that application is using.  The trap here is that if the 
  333. application is using 35% of the MFCPU at a peak time it would be easy 
  334. to assume that an ALCPU could be used that is 35% the speed of the 
  335. MFCPU.  This probably would not be true. This is the advantage of 
  336. analytic modeling.  The differences in CPU speed per transaction can be 
  337. considered and the differences in disk technology also can be part of 
  338. the model.  Queues created by waiting for the various resources can be 
  339. predicted and a resultant response time can be estimated.
  340.  
  341. In a similar fashion, batch throughput can be estimated.  If a batch 
  342. job takes 8 hours on the mainframe and the ALCPU is 10% faster it could 
  343. be estimated that the batch job would run 10% faster.  This might be 
  344. approximately correct, but it is more complex than that.  The CPU 
  345. component of the 8 hours might only be 2 hours and the remainder could 
  346. be attributed to disk I/O.  After migration to the ALCPU, the disk I/O 
  347. might be 6.5 hours and the CPU 1.8 hours. The total job therefore would 
  348. now take 8.3 hours even though the CPU is faster.  Again this is where 
  349. analytic modeling may be useful.
  350.  
  351. Even with analytic modeling tools and services (HPCAPLAN), it is often 
  352. required to benchmark or do some sort of pilot.  Benchmarking is 
  353. expensive and perhaps only gives an estimate of actual production 
  354. results.  A pilot may reveal unexpected technical issues and is of 
  355. value as a proof of concept.  Often a pilot or small benchmark can be 
  356. accurately measured and used as a basis for sizing other application 
  357. migrations.  Modeling is a more flexible, less expensive way to make a 
  358. good business decision on system sizing than benchmarking in most 
  359. cases.  Benchmarking is often more accurate if performed properly 
  360. however.  A good performance consultant can recommend the best solution 
  361. for the mainframe alternative situation being considered.
  362.  
  363. DISK CONSIDERATIONS
  364.  
  365. While there are many disk considerations in mainframe alternatives such 
  366. as RAID, file space, and mirroring, from a performance point of view 
  367. the most important factors are the amount of I/O required to do 
  368. transactions in the alternative environment and the length of time it 
  369. takes to do an I/O.
  370.  
  371. Similar to our discussion about CPU alternatives, the alternative 
  372. platform generally will have disk capacities smaller on average than 
  373. the typical mainframe with access rates similar, but probably slower.  
  374. There are exceptions to this guideline however.  This means that the 
  375. disk I/O in an alternative environment may be slightly slower.  To 
  376. offset this handicap, the alternative environments may have better 
  377. access methods to reduce the amount of physical I/O needed to do the 
  378. same work.  The net of this is that the alternative environment is 
  379. slightly faster in  some cases and slightly slower in others.
  380.  
  381. The major disk performance concern is generally the I/O system inherent 
  382. in the data base selected.  That will be discussed in the data base 
  383. section.
  384.  
  385. There are often operating system requirements for disk space such as a 
  386. certain percentage of free disk space for optimum performance and 
  387. adequate temporary and sort space availability.  In sizing an 
  388. alternative solution it is critical to allow for sufficient sort space 
  389. in particular.
  390.  
  391. Another area that is often overlooked is limitations to growth in the 
  392. areas of file systems, total disk space in a single system, and 
  393. limitations in the data base caused by structural situations There may 
  394. be a limitation to table size in the alternative relational data base 
  395. that did not exist in the main frame data base.
  396.  
  397. Analytic modeling techniques can take this type of knowledge on disk 
  398. I/O situations and predict both on-line and batch performance as 
  399. discussed in the CPU section previously.  As with CPU, the analysts 
  400. will take all known factors, mix in any information on similar 
  401. installed customer systems, and a smattering of experience to come up 
  402. with a proper disk configuration to allow for acceptable performance.  
  403. A conservative approach is generally used with disk I/O as well.
  404.  
  405. Channel and controller speed also can affect I/O access rate when a 
  406. system is busy enough.  This is usually only indirectly considered in 
  407. analytic modeling but should be considered by the analyst if the I/O 
  408. rates are high enough.
  409.  
  410. Disk performance usually starts with, "Will it fit on the spindles?"  
  411. "Will it fit in the file system?"  "Will it fit in the data base?"  
  412. Sometimes after those questions are addressed, as with CPU, a pilot or 
  413. benchmark may be needed to see what will really happen with disk I/O.  
  414. The simplest scenario to predict is the TRANSFER because of the large 
  415. number of potential changes in the other implementation methodologies.
  416.  
  417. The SURROUND strategy has a very interesting disk perspective. There 
  418. are two basic scenarios -- the mainframe contains all of the data and 
  419. the main frame is a central repository server with distributed data 
  420. bases on other servers linked in to the corporate data base.  The idea 
  421. is to let the mainframe be the data base I/O engine but let the users 
  422. use tools on the client systems that give them the accesses they need.
  423.  
  424. From a performance perspective, we can say we are using less expensive 
  425. distributed MIPS on the alternative systems while maintaining the 
  426. corporate data base intact and thus avoiding potential upgrades or poor 
  427. response on the main frame.  This strategy is very important in the 
  428. very large environments and is a way of improving performance and 
  429. price/performance while the distributed data base environment is 
  430. evolving.  Part of the SURROUND plan is to realize that long term even 
  431. the main frame data base will be distributed to alternative networked 
  432. systems.
  433.  
  434. In this client/server type of arrangement, the Middleware and the 
  435. network now become components of the response and should be considered 
  436. when trying to predict migrated response and throughput.  Middleware is 
  437. software that allows client/server applications to be easily developed 
  438. and supported.
  439.  
  440. NETWORKING ISSUES
  441.  
  442. There are many networking issues with mainframe alternatives.  From a 
  443. performance perspective, we must be sure that the network is adequate 
  444. to handle the new client/server traffic quickly enough.  If there is to 
  445. be network backup and recovery of files and transactions, the network 
  446. components need to be able to handle that.
  447.  
  448. If client/server is part of the direction or application mix, the 
  449. performance implications of the  two  tiered  or  three tiered 
  450. approaches will need to be considered.
  451.  
  452. Connectivity and functionality issues abound, but are beyond the scope 
  453. of this paper.  (See the April 26, 1993, issue of COMPUTERWORLD for my 
  454. article on client/server network performance issues titled "Network 
  455. Jam".)
  456.  
  457. Clearly file transfer and applications such as EDI can have a serious 
  458. impact on system performance and business success.  Proper system 
  459. sizing will need to take these often overlooked system loads into 
  460. account.
  461.  
  462. Another possible area for consideration is the concept of overhead and 
  463. recovery time from two-phase commits from distributed data bases.  In 
  464. the simplest sense, client-server distributed data bases require a two-
  465. phase commit for the transaction to complete and this implies overhead 
  466. on both the client and the server as well as possible network delays.
  467.  
  468. This becomes even more complex when a three tiered approach is used or 
  469. when a data base is distributed throughout the network of servers 
  470. requiring multiple two-phase commits and extremely complex staging of 
  471. transactions and recoveries when a server is down.  These complex 
  472. recoveries can cause major temporary performance degradation.
  473.  
  474. It is highly recommended that a network/performance monitor be part of 
  475. the mainframe alternative solution set.  This will help identify and 
  476. size particular parts of the network that may be slowing data transfers 
  477. either through high error rates or from too small a pathway for the 
  478. demand.
  479.  
  480. Network planning and design are critical to the successful 
  481. implementation of a mainframe alternative solution.  The important 
  482. thing is to be sure that there is enough band-width for all connections 
  483. to support the data to be transferred in a rapid enough fashion.
  484.  
  485. OPERATIONS & SYSTEM MANAGEMENT
  486.  
  487. Performance monitoring, system tuning, and reporting of service levels 
  488. are important components of a mainframe alternative solution.  Systems 
  489. need to be monitored for sufficient memory, CPU, and Disk 
  490. accessibility.  Items such as system tables and buffering also need to 
  491. be monitored and reconfigured as necessary.  Often these exercises lead 
  492. to suggested improvements in the data base or application code.
  493.  
  494. Software performance engineering techniques are highly recommended if a 
  495. REWRITE implementation is indicated. Exceptional performance can be 
  496. designed into the code and the data base rather than attempting to 
  497. retrofit it later at a higher cost and lower success rate.  These 
  498. techniques can be applied to other implementation methodologies, but 
  499. the best investment is in new designs.
  500.  
  501. Consulting may be needed to establish metrics for service level 
  502. agreements or to implement performance tools properly in the new 
  503. environment.  Without performance tools, the customer is "driving his 
  504. system in the dark."  Reporting mechanisms need to be established as 
  505. well.  These tend to be standard in the mainframe world, but are often 
  506. overlooked in the open environments.
  507.  
  508. Capacity planning or other types of long and short range business 
  509. consulting are also recommended.
  510.  
  511. Backup and recovery strategies are also important and are sometimes 
  512. considered performance issues.  If the backup strategy selected is too 
  513. time consuming, operations will be more expensive and may interfere 
  514. with production work because of the infamous race to daylight.
  515.  
  516. Is a lights out environment desirable?  What about historical or 
  517. hierarchical storage on optical disks?  What about disk mirroring or 
  518. SPU Switchover to reduce the probability and duration of downtime?  
  519. These types of facilities are all available in the alternate 
  520. environments in a different way than they are in the main frame shop.
  521.  
  522. There are data integrity issues that have an impact on performance.  
  523. For  example if there is to be some type of data base logging, there is 
  524. certainly overhead in both the CPU and disk I/O areas of the system.  
  525. This overhead can be as high as 10% extra on what every user does.  
  526. This factor should be considered in the CPU and Disk configurations as 
  527. discussed earlier.
  528.  
  529. DATA BASES
  530.  
  531. If a data base is transferred, there are two situations which impact 
  532. performance.  Is the data base actually backed up and moved?  Or is the 
  533. data base unloaded and reloaded?  If the data base is moved without the 
  534. unload, chances are that performance will be worse than expected 
  535. because the data base cannot be tuned for the new environment.  If the 
  536. data is unloaded and loaded into a newly created data base, the 
  537. performance may be better than expected because of the potential 
  538. improved design of the data base on the new platform.
  539.  
  540. If there is a move to a new data base as part of the transition, the 
  541. performance may or may not be similar.  There is a higher chance of 
  542. accurate prediction if both data bases are relational SQL type data 
  543. bases for example.  If one is networked and one relational, it is 
  544. difficult to predict performance of an application because of the 
  545. change in access path to the data.
  546.  
  547. Selection of a new data base also may be a performance issue. There 
  548. have been various types  of benchmarks done comparing different data 
  549. bases and even different releases of the same data bases on various 
  550. hardware platforms.  It is important to consider all known information 
  551. as was discussed in the earlier CPU and Disk sections before selecting 
  552. a data base based on performance. Current data bases are differentiated 
  553. more by feature sets  than by performance.
  554.  
  555. The recommended overall strategy should be to select an open data base 
  556. that performs well and has all the features needed.  If there will be a 
  557. client/server type of access be sure to consider the features and 
  558. performance implications of that.  It also may be wise to review the 
  559. features and performance factors involved with the distributed data 
  560. base features of the data bases in making a selection.
  561.  
  562. Relational data bases have many features and capabilities that can and 
  563. should be taken advantage of when possible.  Some of these items are 
  564. ability to use raw partitioning, concurrence separation (indexes from 
  565. tables), striping, spreading data across many less expensive drives and 
  566. controllers, isolating transaction log files from other files and 
  567. controllers, and configuring large memory and buffering areas.  Each 
  568. relational data base allows a different subset of these features.
  569.  
  570. A very important decision to be made is to choose to repair or improve 
  571. deficiencies in the current data base structure as part of the 
  572. migration or conversion.  An example of this is a customer with a five 
  573. year old relational data base.  As the data base evolved and needs 
  574. changed, the staff did not take the time to alter the data base table 
  575. structure to meet those needs the most efficient way.  Instead the 
  576. expedient way was found to add new tables, creating redundant data 
  577. structures and wasting I/O and CPU as a result.  As part of this 
  578. customer's conversion to a new relational data base, the integrator 
  579. redesigned the tables and the 4th Generation Language access routines 
  580. to repair the problem.  This allowed the performance that resulted to 
  581. exceed expectations.
  582.  
  583. It may be very wise to purchase some data base design and tuning 
  584. consulting from the data base vendor as part of the implementation plan 
  585. and to allow time for those functions in the project.
  586.  
  587. THIRD PARTY APPLICATIONS
  588.  
  589. Like the CPU and Disk discussions earlier, if a third party application 
  590. is selected to replace an existing one, examine whatever data is 
  591. available including vendor information and benchmarks as well as any 
  592. customer reference sites for information on expected response.  Data 
  593. base used also will be a part of this decision process.
  594.  
  595. If an application is to be transferred, try to be sure it is a version 
  596. optimized for the new platform rather than a port of the source code.  
  597. If you have to choose between one that is ported or one that is 
  598. designed and written on the new alternative system, pick the native 
  599. version.  There is a high probability the performance will be better.
  600.  
  601. Be conservative in your expectations.  However, it has been my 
  602. experience that the newer versions of these applications tend to run 
  603. better than the old main frame versions.
  604.  
  605. CLIENT/SERVER
  606.  
  607. If possible, move to client/server applications as part of  the 
  608. conversion effort.  Often this is a REWRITE, but it also may be a 
  609. REPLACE strategy.  The performance implications of client/server are 
  610. that cheaper MIPS will be doing the work with similar response in most 
  611. cases as long as the network is adequate.  There are also all the other 
  612. benefits associated with client/server technology such as the better 
  613. tools and lower maintenance.
  614.  
  615. With a move to client/server, the expensive MIPS will be saved to be 
  616. used for other things.  In the SURROUND situation, the main frame life 
  617. without upgrade may be extended.  In the REWRITE scenario, the new 
  618. server will have a similar benefit and may be able to be a smaller CPU 
  619. than was originally expected or sized based on a main frame CPU to 
  620. alternate CPU comparison.
  621.  
  622. It is very common to suggest a move to client/server as phase II of a 
  623. migration project.  This sounds like a good strategy, but in real 
  624. practice it seldom gets completed.  Phase I is of course to get as much 
  625. off the main frame as possible to save money and gain the other 
  626. benefits discussed.  It is wise to size the system for phase I and not 
  627. for phase II that may or may not be in the future.
  628.  
  629. CONSULTING
  630.  
  631. In addition to the network, data base, and performance consulting 
  632. mentioned earlier, migration planning and project management consulting 
  633. may be necessary to implement the project in a timely fashion and to be 
  634. sure that the performance needs and milestones are not overlooked.
  635.  
  636. Integration and conversion consulting also may be needed.  Be sure that 
  637. all consulting is scheduled in the project and meshes with the 
  638. requirements definition.
  639.  
  640. SUMMARY
  641.  
  642. There are many performance considerations in planning a main frame 
  643. alternative solution.  This paper has attempted to discuss some of them 
  644. at a high enough level to be applicable to a variety of situations.  In 
  645. whatever situation develops, some or all of these topics may come into 
  646. play.  The analyst or consultant must gather all the information 
  647. available and proceed with the best business decision possible.  It is 
  648. critical to the successful completion of a main frame alternative 
  649. project that consideration be given beforehand so that surprises are 
  650. minimized and that performance service levels are met.
  651.  
  652. Rightsizing Your Mainframe
  653. Performance Criteria
  654. 7032 - {PAGE|1}
  655.  
  656.